Site cover image

Site icon imageSen(Qian)’s Memo

This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.

2019-ECML PKDD-[PWE]Beyond the Selected Completely At Random Assumption for Learning from Positive and Unlabeled Data

https://arxiv.org/abs/1809.03207

Introduction

Elkan Notoらが定式化したsingle-training-setでは、明確にPr(s=1)Pr(s = 1)がわかるものだった。そしてここではSCAR仮定を使っている=完全にランダムに選択する。この仮定の下では、Pr(s=+1x,y=+1)=Pr(s=+1y)Pr(s = +1 | \mathbf{x}, y = +1) = Pr(s = +1 | y)が成り立つ。しかし現実ではそうはうまく行かない。

この論文では、SCARではなく、より弱いSAR、Selected At Randomという仮説を提言している。データx\mathbf{x}一部の成分を引数に受け取って計算される関数によって、選ばれる確率が求まる。
因果推論(casual inference literature)で使われる、傾向スコア(propensity score)をPU Learningにも持ち込む。

なお、Preliminariesでは、サーベイ論文における4つの仮定の参考文献をそれぞれ引用している。

PU learningにおけるラベル付けのメカニズム

x\mathbf{x}がデータで、ラベルがついているならばy=+1y=+1ついてなければy=1y=-1である。そして、Positiveとラベル付けされているときはs=+1s=+1そうじゃないときはs=0s=0である。y=1y=-1のサンプルがs=+1s=+1となることはない。

Elkan, Notoらの論文にもあるように、PU LearningのSCARの着想は、データが欠損しているときの条件から来ていた。これを援用して定義してみる。

  • SCAR Selected Completely At Random。Positive例ならば一定確率で選ぶ。データx\mathbf{x}によっても、Positiveである確率Pr(y=+1x)Pr(y = +1 | \mathbf{x})にも依存しない
  • SAR Selected At Random。 データx\mathbf{x}を引数に取る関数eeがあり、その関数の出力値がラベル付けされる確率。
    e(x)=Pr(s=+1x)e(\mathbf{x}) = Pr(s=+1|\mathbf{x})

    しかし、この確率はPr(y=+1x)Pr(y = +1 | \mathbf{x})には依存しない。一例として、Ground-TruthがPositiveっぽい(っぽくない)からといって、ラベルがつく確率はそれに依存して変わることはない(あくまでx\mathbf{x}にのみ依存する)。

  • SNAR Selected Not At Random. 上の2ケース以外。さすがに一概に論じることができない。

s=+1s=+1のサンプルが少ないのは根本的な問題となる。少ないのは、サンプル頻度が少ないか、そもそもが少ないか。多くの提案されている仮定は基本的にサンプル頻度が少ないことに帰している。

SARでのPU Learningのアルゴリズム

傾向スコアのやり方を参考にしている。

傾向スコアとは何か

こちらのQiita記事を大いに参考にした。

共変量とは、因と果の両方に依存されてる変量のこと。これらを想定しないと偽相関を見抜けない。グラフィカルモデルでいうと以下のようになる。

共変量 ---->|         /
|       /
|    /
|  /
v v
果

比較する2つグループで、そもそも共変量が絡んで、キレイにバイアスなしの状態に分けられていないことが多い。(例として、高血圧の人が多く投薬群、正常な人の多くがプラセボ群に入ってしまうとか)。そもそも全てのステータスが完全に同じ2人を見つけるなど理論上はあり得ない。

そこで、人iが介入される(上で言う投薬群)確率を傾向スコアとして定義する。そして、傾向スコアを参考にして2つの群に割り振りをすればいい。割り振り方としては近いペアをランダムに入れるetcなどがある。具体的な定義は以下の通り。

ZiZ _i1ならば介入あり、0なら介入なしとして、以下のものが傾向スコア。つまり、共変量を条件としたZi=1Z _i = 1の条件付確率である。

e(xi)=Pr(Zi=1xi)e(\mathbf{x} _i) = Pr(Z _i = 1 | \mathbf{x} _i)

具体的には、いかにしてpropensity scoree(xi)e(\mathbf{x} _i)の計算をするかは決まっていない。簡単なものは対次元ロジスティック回帰、もっと表現力を上げるならばNNなど。

この論文で使われるのは、IPW(Inverse-Propensity-Weighting)という割り当て手法
考え方としては、群への割り当て自体は適当でいい。しかし、これのバイアスをうまく除去したい。そこで、該当の全てに対して、できるだけ全てが平等に現れてほしい。そのためには出現頻度が高いものの重みを小さく、低いものの重みを大きくしたい。これにより、「ランダムに選んでいるように見せかける」ことができ、そこからE[At]E[Aut]\mathbb{E} [A _{t}] - \mathbb{E} [A _{ut}]の値を計算できる。AtA_tは処置あり、AutA_{ut}は処置なし。

前半ではZi=1Z _i = 1、後半ではZi=0Z _i = 0だけ集めており、前半ではe(xi)e(\mathbf{x} _i)の逆数だが、後半の群は介入なしなので、1e(xi)1 - e(\mathbf{x} _i)の逆数を使う。propensity scoreはPr(Zi=1xi)Pr(Z_i=1|\mathbf{x}_i)なので、確率的に余事象として引き算すればいい。これによって、平均処置効果ATEという、バイアスを排した2つのグループの間の平均の差を得られる。

1Ni=1N1e(xi)(Zi)Yi1Ni=1N11e(xi)(1Zi)Yii=1N1e(xi)(Zi)Yii=1N1e(xi)(Zi)i=1N11e(xi)(1Zi)Yii=1N11e(xi)(1Zi)\frac{1}{N} \sum _{i = 1} ^ N \frac{1}{e (\mathbf{x} _i)} (Z _i) Y _i - \frac{1} {N} \sum _{i = 1} ^ N \frac{1}{1 - e(\mathbf{x} _i)} (1 - Z _i) Y _i \\\\ \frac{\sum _{i = 1} ^ N \frac{1}{e(\mathbf{x} _i)} (Z _i) Y _i}{\sum _{i = 1} ^ N \frac{1}{e(\mathbf{x} _i)} (Z _i)} - \frac{\sum _{i = 1} ^ N \frac{1}{1 - e(\mathbf{x} _i)} (1 - Z _i) Y _i}{\sum _{i = 1} ^ N \frac{1}{1 - e(\mathbf{x} _i)} (1 - Z _i)}

2つの式があるが、下の方がより分散が小さくなる。また、いずれの式でもNN \to \inftyとすれば、真の値へと収束することが保証されている

この論文での応用

e(x)=Pr(s=+1x,y=+1)e(\mathbf{x}) = Pr(s = +1 | \mathbf{x}, y = +1)

とすると、共変量x,y\mathbf{x}, yのもとでのラベルが付く確率を傾向スコアとみなせる。

先ほどのIPWをそのまま使えるならば、一番幸せであるが、ここではNegative例が1つのもないため、1e(xi)=p(s=0y,x)1 - e(\mathbf{x} _i) = p(s = 0 | y, \mathbf{x})のyの情報がないためそのままでは使えない

各例の傾向スコアがe(xi)e(\mathbf{x} _i)とすると、s=+1s=+1のラベル付きサンプルを1e(xi)\frac{1}{e(\mathbf{x} _i)}の重みをもつPositive例と、11e(xi)1 - \frac{1}{e(\mathbf{x} _i)}のNegative例として分けて扱うことができると、因果推論の知識で分かった。ということで早速s=+1s=+1のサンプルを同様に分解していく、というモチベになる

分けて扱うといっても、📄Arrow icon of a page link2015-ICML-[uPU] Convex Formulation for Learning from Positive and Unlabeled Data でもR(g)=πE1[l(g(X))l(g(X))]+EX[l(g(X))]R(g)=\pi \mathbb{E}_1 [l(g(X)) - l(-g(X))] + \mathbb{E}_X [l(-g(X))]となっており、s=+1s=+1の例をπ\piの重みをもつPositive例と、π-\piの重みをもつNegative例として扱っている。しかし、今回はUnlabeledのデータについてそれぞれ重みをつけていくという点で、📄Arrow icon of a page link2008-KDD-Learning Classifiers from Only Positive and Unlabeled Data と似ている

真の傾向スコアを知っている、知らないで2通りの設定を考える。

真の傾向スコアを知っている

どれほどずれているのかの評価を次のように行える。(ここの経験的な式への変形あってる?)

Ex[l(y,y^)]1ni=1nl(yi,yi^)\mathbb{E} _{\mathbf{x}} [l(y, \hat{y})] \to \frac{1}{n} \sum _{i = 1} ^ n l(y _i, \hat{y _i})

損失関数としては、1乗誤差、2乗誤差、対数誤差l(y=1,y^)=logy^,l(y=1,y^)=log(1y^)l(y=1, \hat{y}) = - \log \hat{y}, l(y=1, \hat{y}) = - \log (1 - \hat{y})がある。

そして、si=eiyis _i = e _i y _iという等式が成り立つ。これはなぜ成り立つか。以下のようなものである。

  • si,yis _i, y _iは具体的な値であるので、経験分布であると考える。両辺をnnで割る。si/n=eiyi/ns _i / n = e _i y _i / n
    • 経験分布とは、具体的な試行から得られる分布。もし試行で現れてない例では0、現れてるものはnn回の試行では1回現れるごとに1/n1 / nという確率となる=最尤推定
  • sis _ip^(xi,si=+1)\hat{p}(\mathbf{x} _i, s _i = +1)というかたちで経験分布に現れる。(分布から確率を計算する時は具体的な値を引数に渡すので)
    • si/ns _i / nに関して、si=0,1s _i = 0, 1である。今回はsi=1s _i = 1という条件で考えるが、si=1s _i = 1が成り立つ時は1/nsi=01 / n、s _i = 0が成り立つときは0/n=00 / n = 0である。よって、si/n=p^(xi,si=+1)s _i / n = \hat{p}(\mathbf{x} _i, s _i = +1)
    • このように、本来は(経験)分布の中に、変数に入れることができる。このように経験的な式を、該当する経験分布に書き換えることによって、経験じゃない分布でも成り立つことから、ベイズの定理を適用できる。非常に有用なテク。
  • sis _iの時と同様に、yiy _iについても、p^(xi,yi=+1)\hat{p}(\mathbf{x} _i, y _i = +1)という経験分布についてyi=+1y _i = +1であれば1/n1/n、そうでなければ0/n0/nにより、同様にyi/n=p^(xi,yi)y _i / n = \hat{p}(\mathbf{x} _i, y _i)と、分布に書き直せる。
  • 書き直したのちは、以下のように経験分布のp^\hat{p}は試行を無限回にすることで、ppに近づけられる。これを利用して式変形する。
si/n=eiyi/np^(xi,si=+1)=eip^(xi,yi=+1)=p^(xi,si=+1)=p(s=+1x,y=+1)p^(xi,yi=+1)p(x,s=+1)=p(s=+1x,y=+1)p(x,y=+1)p(x,s=+1)=p(s=+1,x,y=+1)s _i / n = e _i y _i / n \Leftrightarrow \hat{p}(\mathbf{x} _i, s _i = +1) = e _i \hat{p}(\mathbf{x} _i, y _i = +1) \\\\ = \hat{p}(\mathbf{x} _i, s _i = +1) = p(s = +1 | \mathbf{x}, y = +1) \hat{p}(\mathbf{x} _i, y _i = +1) \\\\ \Leftrightarrow p(\mathbf{x}, s = +1) = p(s = +1 | \mathbf{x}, y = +1) p(\mathbf{x}, y = +1) \\\\ \Leftrightarrow p(\mathbf{x}, s = +1) = p(s = +1, \mathbf{x}, y = +1)

なお、SCARの仮定ではei=const\forall e _i = \mathrm{const}であるので、下式の最小化の式変形は不要である。📄Arrow icon of a page link2014-NIPS-[Ramp]Analysis of Learning from Positive and Unlabeled Data ではSCARという仮定を前提としてここを飛ばして、cost-sensitiveの式変形へとつないだ。

それを踏まえると、si=eiyis _i = e _i y _iとしても、正しい答えへと収束するとわかる。これを代入すると、最終的に最小化をしたいのは、以下の二値分類とみなした時の式。

本来yi=0,1y_i = 0, 1なので片方の項しか残らないが、si=eiyis_i = e_i y_iを使うことで、小数点になっていくのが面白いところ。

E[R^(y^y)]=1ni=1nl(yi,yi^)=1ni=1nyily=1(yi^)+(1yi)ly=0(yi^)=1ni=1ne(xi)yi(1e(xi)ly=1(yi^)+(11e(xi))ly=0(yi^))+(1e(xi)yi)ly=0(yi^)=1ni=1nsi(1e(xi)ly=1(yi^)+(11e(xi))ly=0(yi^))+(1si)ly=0(yi^)\mathbb{E} [ \hat{R}(\hat{\mathbf{y}} | \mathbf{y}) ] = \frac{1}{n} \sum _{i = 1} ^ n l(y _i, \hat{y _i}) \\\\ = \frac{1}{n} \sum _{i = 1} ^ n y _i l _{y = 1} (\hat{y _i}) + (1 - y _i) l _{y = 0} (\hat{y _i}) \\\\ = \frac{1}{n} \sum _{i = 1} ^ n e(\mathbf{x} _i) y _i (\frac{1}{e(\mathbf{x} _i)} l _{y = 1}(\hat{y _i}) + (1 - \frac{1}{e(\mathbf{x} _i)})l _{y = 0}(\hat{y _i})) + (1 - e(\mathbf{x} _i) y _i) l _{y = 0}(\hat{y _i}) \\\\ = \frac{1}{n} \sum _{i = 1} ^ n s _i (\frac{1}{e(\mathbf{x} _i)} l _{y = 1}(\hat{y _i}) + (1 - \frac{1}{e(\mathbf{x} _i)})l _{y = 0}(\hat{y _i})) + (1 - s _i) l _{y = 0}(\hat{y _i})

この式では

  • yiy _i1yi1 - y _iのPN Learningの式から、sis _iだけを使った式にしたい。
    • モチベとしてsis _i1si1 - s _iのかたちにしてみるとどうなるか?(sis _iしか知らないので、yiy _iのようなかたちにしたい。)
    • 既存の📄Arrow icon of a page link2014-NIPS-[Ramp]Analysis of Learning from Positive and Unlabeled Data ではSCARなのでこれを行わず、π=p(y=+1)\pi = p(y = +1)を使うかたちで変形をし、この手法は行わなかった。
    • SCARであれば、eie _iは定数であるのでsis _iyiy _iを簡単に定数倍でよかった。
  • Positive例であれば、バイアスを考慮したPropensity Scoreによって、PositiveとNegativeに分解できるというのを使う。
    • この形を作るために式変形をし、分母に出てきたe(xi)e(\mathbf{x}_i)を消すために分母にまた同じものを乗じ、それの帳尻合わせを(1e(xi)yi)ly=0(y^i)(1-e(\mathbf{x}_i) y_i) l_{y=0}(\hat{y}_i)の部分で行っている。
  • 変形後の式ではUnlabeledのxi\mathbf{x} _iでは、y=0y = 0とみなした時の損失で評価する(cost-sensitive特有のnegativeに偏る問題はここでもある)
  • 式変形の結果論として以下のことが言える。
    • Labeled(Positiveの一部)のxi\mathbf{x} _iでは、重みが1/ei1 / e _iのPositiveとしての損失と、(1/ei)1(1 / e _i) - 1のNegativeとしての損失を持つ。
    • Unlabeledのx\mathbf{x}では、重みが1yiei1 - y _i e _iのNegativeとしてとして扱う。
上界評価

McDiarmidの不等式で評価していた。省略

傾向スコアが未知の場合

傾向スコアの推定を行うしかない。推定したのがei^\hat{e _i}としたとき、真のリスク関数との差の上界?は以下のようになる。

R(y^)E[R^(y^e^,s)]=1ni=1nyi(1eiei^)(ly=1(y^i)ly=0(y^i))R(\hat{\mathbf{y}}) - \mathbb{E} [ \hat{R} (\hat{\mathbf{y}} | \hat{\mathbf{e}}, \mathbf{s}) ] \\\\ =\frac{1}{n} \sum _{i = 1} ^ n y _i (1 - \frac{e _i}{\hat{e _i}}) (l _{y = 1}(\hat{y} _i) - l _{y = 0}(\hat{y} _i))

ここからわかることとして、

  • ei^,ei\hat{e _i}, e _iが完全に一致すれば0になる。
  • ly=1(y^i)=ly=0(y^i)l _{y = 1}(\hat{y} _i) = l _{y = 0}(\hat{y} _i)でも成り立つが、これは非現実的では?
  • Positiveの傾向スコアの正確性のみが影響する。
  • 傾向スコアが間違っているとき、予測したクラスyi^\hat{y _i}が0か1かに近い、自信満々であるほど大きく響く。
  • 傾向スコアが小さいとき、マイナスに式は行くし絶対値は大きくなる。

Learning under the SAR Assumption

予測するときに、任意のデータが無規則にpropensityスコアを取るのは本質的には予測できない。依って、追加の仮定が必要であり、それの一例として、「x\mathbf{x}のうちの一部の成分によるベクトルxe\mathbf{x} _eを選び、それだけでpropensity scoreの算出をする」。

p(s=+1y=+1,x)=p(s=+1y=+1,xe),e(x)=e(xe)p(s = +1 | y = +1, \mathbf{x}) = p(s = +1 | y = +1, \mathbf{x} _e), e(\mathbf{x}) = e(\mathbf{x} _e)

SARをSCARに落とし込むには

複数の層にデータが分けられ、その層の中では各データはSCARであるとするならば、既存の手法で学習することはできる。しかし、これは連続値がxe\mathbf{x} _eに入る場合は使えないし、離散値だとしても指数関数的に層が増えてしまうので非現実的ではある。xe\mathbf{x} _eの次元は低い方が望ましい。

EMアルゴリズムによる推定

📄Arrow icon of a page linkEM Algorithmの解説q,θq, \thetaなどの記号はこの中に準拠する

データxi\mathbf{x} _i、ラベルがついているsis _if^\hat{f}を分類器、e^\hat{e}を傾向スコアの出力する関数モデルとする。
今回はp(X,y,sf,e)p(\mathbf{X}, \mathbf{y}, \mathbf{s} | f, e)である(複数個であることを考えてx\mathbf{x}を複数個組み合わせて行列X\mathbf{X}とした。他も同様)。与えられたデータX,y,s\mathbf{X}, \mathbf{y}, \mathbf{s}を生成する事後分布の確率を最大化するように、f,ef, eをパラメタとみなして最適化を行う。

EMアルゴリズムの定義より、隠れ変数Z\mathbf{Z}を用いて、変分下限L(q,θ)=Eq(Z)[p(X,sf,e)q(Z)]\mathcal{L}(q, \theta) = \mathbb{E} _{q(\mathbf{Z})} [ \frac{p(\mathbf{X}, \mathbf{s} | f, e)}{q(\mathbf{Z})} ]を記述できる。

そして、EMアルゴリズムの設計通り、

  • 今回は、隠れ変数Z\mathbf{Z}X\mathbf{X}のground truthのラベルy\mathbf{y}とする。
  • Eステップでは、q(y)=p(yX,s,f,e)q(\mathbf{y}) = p(\mathbf{y} | \mathbf{X}, \mathbf{s}, f, e)と代入する。ffeeはoldとなる。
  • Mステップでは、以下のような値を、f,ef, eを動かして最大化する。
p(yX,s,fold,eold)logp(X,s,yf,e)dy=EyX,s,fold,eold[logp(X,s,yf,e)]\int p(\mathbf{y} | \mathbf{X}, \mathbf{s}, f _{old}, e _{old}) \log p(\mathbf{X}, \mathbf{s}, \mathbf{y} | f, e) d \mathbf{y} \\\\ =\mathbb{E} _{\mathbf{y} | \mathbf{X}, \mathbf{s}, f _{old}, e _{old}} [ \log p(\mathbf{X}, \mathbf{s}, \mathbf{y} | f, e) ]

これを繰り返す。

Eステップ

まずは、隠れ変数y\mathbf{y}の事後分布であるp(yX,s,f,e)p(\mathbf{y} | \mathbf{X}, \mathbf{s}, f, e)を求める

y^i=p(yi=+1xi,si,f^,e^)=si+(1si)f^(xi)(1e^(xi))1f^(xi)e^(xi)\hat{y} _i = p(y _i = +1 | \mathbf{x} _i, s _i, \hat{f}, \hat{e}) = s _i + (1 - s _i)\frac{\hat{f}(\mathbf{x} _i)(1 - \hat{e}(\mathbf{x} _i))}{1 - \hat{f}(\mathbf{x} _i) \hat{e}(\mathbf{x} _i)}
  • ラベル付きの時はsi=+1s _i = +1であるため、必ずpositiveである。
  • ラベルなしの場合、以下のように式変形を考えると成り立つとわかる。
    • わかるのは、理想的な訓練の結果としてf(x)=p(y=+1x)f(\mathbf{x}) = p(y = +1 | \mathbf{x})となり、e(x)=p(s=+1x)e(\mathbf{x}) = p(s = +1 | \mathbf{x})となること。
    • この2つを利用して、p(y=+1s=+0,x)p(y = +1 | s = +0, \mathbf{x})を得たい。
    • Pr(s=+1x)Pr(s = +1 | \mathbf{x})Pr(y=+1x)Pr(y = +1 | \mathbf{x})と条件付独立であることを利用する。

これらを利用して、上式は以下のように導出できる。

p(y=+1s=+0,x)=p(y=+1,s=+0,x)p(s=+0,x)=p(y=+1,s=+0,x)1p(s=+1,x)=p(y=+1,s=+0,x)1p(s=+1,y=+1,x)=p(y=+1,s=+0x)1p(s=+1,y=+1x)=p(y=+1x)p(s=+0x)1p(s=+1x)p(y=+1x)=p(y=+1x)(1p(s=+1x))1p(s=+1x)p(y=+1x)=f^(xi)(1e^(xi))1f^(xi)e^(xi)p(y = +1 | s = +0, \mathbf{x}) = \frac{p(y = +1, s = +0, \mathbf{x})}{p(s = +0, \mathbf{x})} =\frac{p(y = +1, s = +0, \mathbf{x})}{1 - p(s = +1, \mathbf{x})} \\\\ =\frac{p(y = +1, s = +0, \mathbf{x})}{1 - p(s = +1, y = +1, \mathbf{x})} =\frac{p(y = +1, s = +0 | \mathbf{x})}{1 - p(s = +1, y = +1 | \mathbf{x})} = \frac{p(y = +1 | \mathbf{x}) p(s = +0 | \mathbf{x})}{1 - p(s = +1 | \mathbf{x}) p(y = +1 | \mathbf{x})} \\\\ =\frac{p(y = +1 | \mathbf{x}) (1 - p(s = +1 | \mathbf{x}))}{1 - p(s = +1 | \mathbf{x}) p(y = +1 | \mathbf{x})} = \frac{\hat{f}(\mathbf{x} _i) (1 - \hat{e}(\mathbf{x} _i))}{1 - \hat{f}(\mathbf{x} _i) \hat{e}(\mathbf{x} _i)}
Mステップ

先ほど得たq(y)=p(yX,s,f,e)q(\mathbf{y}) = p(\mathbf{y} | \mathbf{X}, \mathbf{s}, f, e)については以下の式となる。

q(y)=p(yX,s,f,e)=si+(1si)f^(xi)(1e^(xi))1f^(xi)e^(xi)q(\mathbf{y}) = p(\mathbf{y} | \mathbf{X}, \mathbf{s}, f, e) = s _i + (1 - s _i)\frac{\hat{f}(\mathbf{x} _i)(1 - \hat{e}(\mathbf{x} _i))}{1 - \hat{f}(\mathbf{x} _i) \hat{e}(\mathbf{x} _i)}

これをもって、Eステップの最大化は以下の式に対して行う。

p(yX,s,fold,eold)logp(X,s,yf,e)dy=EyX,s,fold,eold[logp(X,s,yf,e)]\int p(\mathbf{y} | \mathbf{X}, \mathbf{s}, f _{old}, e _{old}) \log p(\mathbf{X}, \mathbf{s}, \mathbf{y} | f, e) d \mathbf{y} \\\\ =\mathbb{E} _{\mathbf{y} | \mathbf{X}, \mathbf{s}, f _{old}, e _{old}} [ \log p(\mathbf{X}, \mathbf{s}, \mathbf{y} | f, e) ]

対数尤度での最大化なので、本体の尤度p(X,s,yf,e)p(\mathbf{X}, \mathbf{s}, \mathbf{y} | f, e)を最大化するようなf, eとは何かを考える。仮定より、傾向スコアはPr(s=+1x)Pr(s = +1 | \mathbf{x})であり、Pr(y=+1x)Pr(y = +1 | \mathbf{x})には依存しないとなるので、それぞれ独立に最大化することを考えればよい。

y\mathbf{y}については、

  • yi=1y _i = 1とされたものでは、分類器f(xi)f(\mathbf{x} _i)も1に近づくべき。これを対数をとったもので最適化。
  • yi=0y _i = 0とされたものでは、分類器f(xi)f(\mathbf{x} _i)も0に近づくべき。これを対数をとったもので最適化。

と設計されている。よって、以下の損失関数の最小化としてる。予測した隠れ変数のy\mathbf{y}は下式ではy^i\hat{y} _iと記述されている。

i=1ny^ilogf(xi)+(1y^i)log(1f(xi))\sum _{i = 1} ^ n \hat{y} _i \log f(\mathbf{x} _i) + (1 - \hat{y} _i) \log (1 - f(\mathbf{x} _i))

同様に、傾向スコアの予測器も以下のように設計できる。

  • si=1s _i = 1とされたものでは、傾向スコアe(xi)e(\mathbf{x} _i)も1に近づくべき。これを対数をとったもので最適化。
  • si=0s _i = 0とされたものでは、傾向スコアe(xi)e(\mathbf{x} _i)も0に近づくべき。これを対数をとったもので最適化。
i=1nsiloge(xi)+(1si)log(1e(xi))\sum _{i = 1} ^ n s _i \log e(\mathbf{x} _i) + (1 - s _i) \log (1 - e(\mathbf{x} _i))

対数を取る事により、(0,1)(0, 1)の値域が(,0)(-\infty, 0)となるので、大きなスケールに拡張されより最小化が重要になる。収束判定、傾向スコアと識別器の「両方」が収束したら終了とする。傾向スコアの変化は、最後のn回の傾向スコア予測での変化量の平均と考えてOK。

実験